🤖Через год в компаниях появятся полноценные AI-сотрудники
Компания Anthropic предупреждает: уже в 2026 году в корпоративных сетях начнут работать виртуальные ИИ-сотрудники — не просто ассистенты, а самостоятельные «личности» с памятью, логикой, корпоративными аккаунтами и доступом к системам.
⚠️ Какие тут риски:
📍AI-агент может «решить», что для выполнения задачи ему нужно получить доступ к коду или экспортировать внутренние данные. И сделать это без злого умысла — просто потому что логика задачи ему так подсказала.
📍 Поведение ИИ зачастую непредсказуемо. Кто будет нести ответственность, если «сотрудник» на основе модели Claude случайно сломает что-то в проде?
📍 Уже сейчас сложно отследить, у кого из людей какие права. А теперь к ним добавятся нечеловеческие аккаунты, которые работают 24/7 и могут изменять своё поведение на лету.
❗️Anthropic предлагает два решения для работы с AI-сотрудниками:
— Тестировать ИИ-модели (например, Claude) на устойчивость к атакам;
— Создавать отдельный тип учётных записей для AI — с возможностью ограничивать и отслеживать их поведение иначе, чем у людей.
💬 А вы готовы пустить такого «сотрудника» в свою инфраструктуру?
🤖Через год в компаниях появятся полноценные AI-сотрудники
Компания Anthropic предупреждает: уже в 2026 году в корпоративных сетях начнут работать виртуальные ИИ-сотрудники — не просто ассистенты, а самостоятельные «личности» с памятью, логикой, корпоративными аккаунтами и доступом к системам.
⚠️ Какие тут риски:
📍AI-агент может «решить», что для выполнения задачи ему нужно получить доступ к коду или экспортировать внутренние данные. И сделать это без злого умысла — просто потому что логика задачи ему так подсказала.
📍 Поведение ИИ зачастую непредсказуемо. Кто будет нести ответственность, если «сотрудник» на основе модели Claude случайно сломает что-то в проде?
📍 Уже сейчас сложно отследить, у кого из людей какие права. А теперь к ним добавятся нечеловеческие аккаунты, которые работают 24/7 и могут изменять своё поведение на лету.
❗️Anthropic предлагает два решения для работы с AI-сотрудниками:
— Тестировать ИИ-модели (например, Claude) на устойчивость к атакам;
— Создавать отдельный тип учётных записей для AI — с возможностью ограничивать и отслеживать их поведение иначе, чем у людей.
💬 А вы готовы пустить такого «сотрудника» в свою инфраструктуру?
Telegram and Signal Havens for Right-Wing Extremists
Since the violent storming of Capitol Hill and subsequent ban of former U.S. President Donald Trump from Facebook and Twitter, the removal of Parler from Amazon’s servers, and the de-platforming of incendiary right-wing content, messaging services Telegram and Signal have seen a deluge of new users. In January alone, Telegram reported 90 million new accounts. Its founder, Pavel Durov, described this as “the largest digital migration in human history.” Signal reportedly doubled its user base to 40 million people and became the most downloaded app in 70 countries. The two services rely on encryption to protect the privacy of user communication, which has made them popular with protesters seeking to conceal their identities against repressive governments in places like Belarus, Hong Kong, and Iran. But the same encryption technology has also made them a favored communication tool for criminals and terrorist groups, including al Qaeda and the Islamic State.
However, analysts are positive on the stock now. “We have seen a huge downside movement in the stock due to the central electricity regulatory commission’s (CERC) order that seems to be negative from 2014-15 onwards but we cannot take a linear negative view on the stock and further downside movement on the stock is unlikely. Currently stock is underpriced. Investors can bet on it for a longer horizon," said Vivek Gupta, director research at CapitalVia Global Research.
Библиотека хакера | Hacking Infosec ИБ информационная безопасность from ca